- De CEO’s van Google DeepMind en Anthropic maakten onlangs kenbaar dat ze zich heel erg bewust zijn van hun verantwoordelijkheden.
- Volgens de topmannen moeten er toezichthouders komen die een oogje in het zeil houden bij AI-projecten.
- Beide topmannen waren het er ook over eens dat mensen beter op de hoogte moeten zijn van de risico’s van geavanceerde artificial intelligence en hierop voorbereid moeten zijn.
- Lees ook: In Amsterdam vinden ze door AI sneller nieuwe antilichamen voor medicijnen: ‘Onze software ontwerpt eiwitten’
Toen CEO Demis Hassabis van Google DeepMind werd gevraagd of hij zich ooit zorgen maakt of hij de nieuwe Robert Oppenheimer (de uitvinder van de atoombom) zal worden, gaf hij aan dat dit wel degelijk het geval is.
“Ik maak me constant druk om dit soort scenario’s. Daarom slaap ik niet heel veel”, zei Hassabis in een interview met The Economist waar ook CEO Dario Amodei van AI-startup Anthropic aan meedeed. “Ik bedoel, er rust een immense verantwoordelijkheid – waarschijnlijk te veel – op de mensen die deze technologie leiden.”
Hassabis en Amodai zijn het erover eens dat geavanceerde vormen van artificial intelligence (AI) een destructief potentieel hebben, als die er uiteindelijk komen.
“Bijna elke beslissing die ik neem, voelt alsof je op het randje van een mes balanceert”, stelt Amodai. “Als we niet snel genoeg bouwen, dan kunnen autoritaire landen winnen. Als we te snel bouwen, dan riskeren we dat dingen die Demis aanhaalt de overmacht krijgen. Hoe dan ook, ik zal mezelf de schuld ervan geven dat we niet het perfecte besluit hebben genomen”
Hassabis van Google DeepMind zegt dat, terwijl AI momenteel misschien overhyped lijkt, hij wel het gevoel heeft dat de consequenties op de midden- tot lange termijn onderschat worden. Hij pleit voor een gebalanceerd perspectief waarbij we de "ongelooflijke kansen" vooral op het gebied van wetenschap en gezondheidszorg die AI biedt herkennen, maar dat we tegelijk goed op de hoogte blijven van de bijbehorende risico's.
"De grote risico's waar ik het over heb, zijn dat kwaadwillenden deze algemeen inzetbare technologie gebruiken voor slechte doeleinden. Hoe zorgen we ervoor dat we technologie op een goede manier kunnen gebruiken, terwijl kwaadwillenden geen schade kunnen aanrichten?", aldus Hassabis. "Het tweede is het risico van AGI, of agentic systemen, die de controle verliezen of niet zijn voorzien van de juiste waarden en doelstellingen. Het is cruciaal dat we beide risico's weten te beheersen. De wereld moet zich daarop richten."
Controle op AI vanuit toezichthouders
Zowel Amodei als Hassabis pleiten voor een toezichthouder die AI-projecten in de gaten houdt. Hassabis denkt daarbij dat het Internationale Atoomenergie Agentschap een goed model is om hiervoor te volgen
"Idealiter zou iets als de VN het zijn, maar gezien de geopolitieke complexiteiten, lijkt dat niet erg waarschijnlijk", aldus Hassabis. "Dus ik maak me constant zorgen. We proberen vanuit onze kant alles te doen wat we kunnen met de invloed die we hebben."
Volgens Hassabis is internationale samenwerking hierbij van groot belang: "Ik heb in het verleden veel over een soort CERN voor AGI gesproken, waarbij internationaal wordt samengewerkt aan onderzoek aan de laatste stappen die we moeten zetten om de eerste AGI's te bouwen."
Beide topmannen vinden dat er een beter begrip van de veranderende kracht van AI kan zijn, en dat samenlevingen hiervoor moeten plannen.
"We staan aan de vooravond van iets dat grote uitdagingen met zich meebrengt, toch? Het gaat om de machtsbalans wereld", aldus Amodei van Anthropic. "Als iemand een nieuw land in de wereld plaatst met 10 miljoen mensen die slimmer zijn dan alle mensen die vandaag leven, dan ga je je afvragen: 'Wat is hun intentie? Wat gaan ze nu echt doen in de wereld, vooral als ze volledig autonoom kunnen handelen?'"